Keynote 1
09:40 hrs - 10:40 hrs
DR. MARIO HAMUY
Bio: Mario Hamuy Wackenhut nació en Santiago de Chile el 25 de marzo de 1960. A los 16 años, ingresó a la Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile, donde obtuvo una licenciatura en Física y luego un Magíster en Física. En 1987, comenzó a trabajar en el Observatorio Interamericano de Cerro Tololo, liderando el proyecto Calán/Tololo, que allanó el camino para ... Leer más
Keynote 2
11:10 hrs - 12:10 hrs
Dra. Anna Scaife
Bio: Anna Scaife es Profesora de Radioastronomía en la Universidad de Manchester, Reino Unido. Su investigación se centra en el uso de la inteligencia artificial para descubrimientos en la astrofísica intensiva en datos. En 2019 fue nombrada una de las cinco primeras Becarias de Inteligencia Artificial del Instituto Alan Turing del Reino Unido. Previamente, lideró varios proyectos en el desarrollo de la radioastronomía técnica y la informática ... Leer más
Keynote 3
14:20 hrs - 15:20 hrs
Dra. Verónica Gil-Costa
Bio: Dra. Veronica Gil-Costa es profesora asociada de la Universidad Nacional de San Luis (UNSL) e investigadora de CONICET. Es investigadora asociada del Centro de Biotecnología y Bioingeniería (CeBiB), investigadora del Centro de Innovación en Tecnologías de la Información para Aplicaciones Sociales (CITIAPS), del Advanced Real-Time Simulation Laboratory ... Leer más
Primer ciclo de charlas
12:10 hrs - 13:00 hrs
Bio: Doctor en Ciencias de la Ingeniería con Mención en Informática en DIINF USACH. Investigador Postdoctoral en LABEN Chile. Daniel es un investigador joven dedicado a los campos de búsqueda y recuperación de información, ingeniería de software, inteligencia artificial y ciencia de datos aplicada. Su intención y motivación es construir soluciones de software para mejorar el acceso a la información en todos los sectores de la sociedad utilizando procesos de i+D centrados en el usuario final. En sus tiempos libres se dedica a la fotografía como hobbie."
Resumen: La dificultad percibida al realizar una búsqueda web es un constructo que varía de acuerdo a la tarea a realizar y al usuario mismo que las realiza. Factores como el conocimiento previo del tema y la motivación alteran la dificultad percibida de una tarea, afectando el proceso de búsqueda en si. No todos los motores de búsqueda están preparados para detectar si una tarea es fácil o difícil para un usuario, por lo que esta charla pretende mostrar un acercamiento novedoso y oportuno para la predicción de la dificultad percibida basada en comportamientos del usuario durante la búsqueda web y utilizando ciencia de datos aplicada. Se vislumbran múltiples potenciales usos prácticos de este trabajo con el fin de mejorar la experiencia de búsqueda web de los usuarios en general.
Bio: Emprendedor tecnológico e investigador en neurociencia cognitiva. Ingeniero en informática ULA, licenciado en gestión y organización tecnológica USACH, magíster ingeniería en informática UNAB, actualmente estudiante de doctorado en ciencias de la Ingeniería con mención en Informática USACH. Fanático de los animales y la cultura japonesa.
Resumen: El estudio del esfuerzo cognitivo contribuye al análisis de los procesos de aprendizaje y cognición en diferentes situaciones académicas, laborales y clínicas, entre otras. La mayoría de los estudios que utilizan medidas psicofisiológicas analizan principalmente las señales del electroencefalograma, y muy pocos han evaluado la relación entre los mecanismos hemodinámicos cerebrales y el esfuerzo cognitivo de los estímulos relacionados con el nivel. El objetivo de mi proyecto de investigación es comprender la asignación de recursos cerebrales (como el oxígeno y la glucosa) y la eliminación de residuos metabólicos al realizar tareas cognitivas en condiciones fisiológicas mediante el método de ultrasonografía Doppler transcraneal. De esta forma, podemos establecer un biomarcador de las funciones neurocognitivas basado en la entropía y medidas de complejidad estadística obtenidas a partir de señales hemodinámicas, que permita diferenciar el esfuerzo durante la realización de tareas mentales.
Segundo ciclo de charlas
15:20 hrs - 16:20 hrs
Bio: Francisco Parra, nacido un 23 de marzo de 1989, es un geólogo forjado en los rigurosos campos académicos de la Universidad de Chile. A lo largo de su vida, Francisco ha cultivado una rica paleta de conocimientos que van desde la geotermia y la volcanología hasta el modelamiento de inundaciones y el análisis de recursos mineros. Su versatilidad le lleva a desempeñarse también como docente, impartiendo sabiduría en geología y física. Su dominio de tres idiomas y habilidades avanzadas en informática lo convierten en un profesional que sabe no solo qué decir, sino también cómo hacerlo eficazmente en cualquier ambiente técnico. Al unir su amor por la ciencia de la tierra con la aptitud para la mecánica cuántica, adquirida a través de un Minor, Francisco ha cruzado fronteras disciplinarias para sumergirse en la ciencia de datos y Machine Learning. Desde que culminó su periodo formativo, ha aplicado este corpus de conocimientos en sus propios emprendimientos, participando activamente en la promoción del Big Data en su natal Chile.
Resumen: Landslides represent one of the main geological hazards. The main purpose of this study is to evaluate the application of machine learning algorithms (SVM, RF, XGBoost and logistic regression) and compare the results for the modeling of landslides susceptibility in the province of Chañaral, Chile. A total of 86 sites are identified using various sources, plus another 86 sites as non-landslides, which are randomly divided, and then a cross-validation process is applied to calculate the accuracy of the models. After that, from 23 conditioning factors, 12 were chosen based on the information gain ratio (IGR). The performance of the models is evaluated through the area under the ROC curve (AUC). To study the statistical behavior of the model, the Friedman non-parametric test is performed to compare the performance with the other algorithms and the Nemenyi test for pairwise comparison. Of the algorithms used, the RF (AUC = 0.93) and the XGBoost (AUC = 0.93) has the highest accuracy values measured in AUC compared to the other models and can be used for the same purpose in other geographic areas with similar characteristics.
Bio: Jorge Cubillos, ingeniero en informática, casado, padre de dos niños (6 y 3 años). Funcionario Público, Jefe unidad de administración y mantención de sistemas del Servicio Nacional del Patrimonio Cultural dependiente del Ministerio de Culturas, Artes y el patrimonio y estudiante del programa de magíster en Ingeniería Informática y tesista del profesor Mario Inostroza y Marció Dorn.
Resumen: En esta charla se presenta una solución al problema de identificación de biomarcadores para pacientes de cáncer de colon a través de datos de expresión génica desde un enfoque de feature selection dónde se ocupa una metodología híbrida de dos etapas: filtro y envoltura, siendo la última una versión modificada del algoritmo NSGA-II que incluye un nuevo operador de acercamiento multiobjetivo. Esta metodología fue parametrizada para encontrar la mejor configuración de parámetros. Una vez obtenida la mejor configuración se realiza una ejecución de largo plazo, evaluando 1 millón de combinaciones y comparando sus resultados con el algoritmo RFE en términos de capacidad para discriminar las clases y tamaño del subconjunto, realizando una validación biológica de los biomarcadores identificados en Disgenet. Además, mediante un proceso de enriquecimiento biológico se identifican los términos relacionados a través de Gene Ontology con significancia estadística con el cáncer de colon corroborado en la literatura.
Posters y Demos
(16:40 hrs - 18:00 hrs)
Posters
Optimización del Tamaño de Celda en el proceso de Gridding
La radio interferometría es una herramienta esencial en la astronomía moderna para obtener imágenes de alta resolución del universo. Sin embargo, la calidad de estas imágenes depende en gran medida de la elección del tamaño de celda en el proceso de gridding. Una elección inadecuada puede llevar a la pérdida de información valiosa y errores en las reconstrucciones. La motivación detrás de este proyecto es mejorar la calidad de las imágenes obtenidas mediante la optimización del tamaño de celdas en el gridding. Por lo tanto, el problema a tratar radica en determinar el tamaño óptimo de celdas en la radio interferometría. Esto implica encontrar un equilibrio entre maximizar la cantidad de datos por celda, aumentar la cantidad de celdas con una gran cantidad de datos y minimizar el error en la reconstrucción de los datos. Este problema de optimización se puede resumir en minimizar la siguiente ecuación: Mínimo error de reconstrucción + mínima variación de ocupación por celda - máximo promedio de ocupación por celda. El enfoque de solución utilizado se basa en un proceso iterativo de evaluación de estadísticas claves, específicamente, el mínimo error en la reconstrucción de la imagen, junto a la varianza y el promedio de la cantidad de celdas con j muestras, en función del tamaño de celda que se le entregue al gridding. Todo esto, a través del uso de técnicas de broadcasting y cálculos paralelos en GPU con lenguaje python, lo que permite trabajar con gran cantidad de datos como bloques en paralelo y acelerar el proceso de optimización. La metodología empleada consta, inicialmente, de la recopilación de los datos en el formato de coordenadas (u,v) de la radio interferometría (específicamente, para este problema se trabaja con datos del Observatorio ALMA). Luego, considerando el tamaño del gridder a usar y el tamaño de celda, se evalúan las estadísticas de variación y promedio de ocupación. Mientras que, utilizando los datos de reconstrucción de puntos faltantes, se evalúa el error de reconstrucción. De esta forma, a través de un proceso iterativo de ajustes de tamaño de celda y repetición de mediciones de estadísticas, se busca encontrar el tamaño óptimo de celda en base a la ecuación de optimización antes mencionada. Como resultado se espera obtener un tamaño de celda que permita mejorar la calidad de las imágenes obtenidas. Todo esto de forma eficiente, aprovechando las herramientas y técnicas actuales, tales como el broadcasting, Dask y la potencia de cómputo de las GPU, para ayudar a elaborar código de forma eficiente. Actualmente, el desarrollo de esta solución sigue en elaboración. Hasta el momento se han obtenido estadísticas de varianza y promedio. Ahora se debe implementar la evaluación del error de construcción.
Uso de juego serio como complemento al aprendizaje en estudiantes de Ingeniería del área Computación e Informática en el curso de ciberseguridad.
Tal como indica Entel (2020) en su informe de ciberseguridad, durante el año 2020 el mundo fue azotado por una pandemia, la cual trajo consigo un efecto en todas la actividades empresariales y productivas, provocando una crisis económica a nivel mundial. La cuarentena trajo consigo diversos cambios tales como trabajo remoto, digitalización de procesos y cambios en el accionar de las personas; lo cual provocó que las empresas para mantenerse en el mercado tuvieron que acelerar los procesos de digitalización y, en muchos casos, no consideraron la ciberseguridad, así quedando vulnerables por ciber actores maliciosos de todo el mundo. En Chile, según el “Equipo de Respuesta ante Incidentes de Seguridad Informática” (CSIRT) (2021), en el primer trimestre empresas y personas recibieron al menos 410 millones de intentos de ciberataques. Es por esto que la ciberseguridad toma un papel protagónico en la vida de las personas para protegerse y, en específico, en la formación del ingeniero informático dado que el desarrollo de software se debe realizar considerando los controles, buenas prácticas y estándares de ciberseguridad. Además, cabe destacar que los ciberataques van evolucionando día a día junto con las tecnologías y es necesario ser conscientes de la importancia de los riesgos, vulnerabilidades e impactos relacionados con la ciberseguridad. En consecuencia, es importante la adquisición de conocimiento sobre ciberseguridad en la formación de los ingenieros del Departamento de Ingeniería Informática de la Universidad de Santiago. El curso de ciberseguridad impartido en la carrera cuenta de cuatro unidades con sus respectivas descripciones programadas para el semestre. La asignatura cuenta con mucho contenido que, muchas veces, no es posible abordar en un semestre debido a que existen actividades, situaciones o diversos factores que no lo permiten. Además, según lo consultado con el profesor Juan Iturbe existe una evidencia de un empeoramiento en las notas obtenidas en la segunda prueba que abarca el conocimiento de las unidades 3 y 4 llamadas “Gobierno y gestión de la ciberseguridad” e “Implementación y operación de la ciberseguridad” respectivamente.
Análisis bibliométrico de las publicaciones de los académicos o académicas del DIINF
Es esencial conocer las áreas de investigación actuales a nivel individual y organizacional, para dirigirse a las nuevas áreas del conocimiento, medir el impacto del trabajo y usar eficientemente los recursos. Los análisis bibliométricos son populares para esto. Un análisis bibliométrico es una herramienta que resume información de investigaciones para mostrar la estructura y tendencias en un campo. Se divide en dos partes: medir la productividad y explorar relaciones entre investigaciones usando estadísticas y procesamiento de lenguaje natural. Sin embargo, surge un problema significativo: si bien existen áreas de interés en la página web del departamento, estas no explican cómo se obtienen y no son cuantitativas respecto a las publicaciones realizadas bajo la afiliación del DIINF. Este trabajo aborda este desafío llevando a cabo un análisis bibliométrico de las publicaciones de los académicos y académicas del departamento desde el año 1995 hasta el 2022. Se encontraron 518 publicaciones entre ese tiempo y 33 académicos y académicas. Utilizando la metodología CRIPS-DM, que consta de 6 etapas: entendimiento del problema, entendimiento de los datos, preparación de los datos, modelamiento, evaluación y despliegue, se desarrolló una herramienta que permite extraer los diferentes índices bibliométricos, de frecuencia y de relación, y llevar a cabo un análisis bibliométrico del DIINF que caracteriza las áreas de computación y aplicación, así como las relaciones de colaboración. La herramienta está disponible en el siguiente enlace .
Análisis de MRI basado en complejidad estadística entre sujetos sanos y con accidente cerebrovascular isquémico agudo
"El cerebro es uno de los órganos más importantes para el funcionamiento del cuerpo humano, por lo cual necesita mantener un flujo continuo de sangre. Cuando el flujo se interrumpe, pueden presentarse daños irreversibles, tales como los producidos por los accidentes cerebrovasculares (ACV), el cual genera discapacidades en las personas, costos económicos y en los casos extremos la muerte. Debido a que se debe actuar de manera rápida para evitar los daños irreversibles, los especialistas detectan un ACV mediante una entrevista neurológica y un examen físico, el cual es seguido por algún tipo de prueba, entre las que se encuentran las imágenes de resonancia magnética (MRI). Uno de los métodos que tiene la MRI para obtener las imágenes es el contraste a partir del nivel de oxígeno en la sangre (Blood Oxygen Level Dependent o BOLD). El problema de la MRI es que la identificación de la zona y el daño provocado por el ACV depende de la experiencia que tiene el especialista. El funcionamiento del cuerpo humano es de tipo caótico, tiene una gran cantidad de variables involucradas, es no lineal e impredecible, por lo que los modelos convencionales no logran explicar los cambios que ocurren. Por lo anterior, es que la complejidad estadística es una alternativa que permite analizar este tipo de señales El objetivo es analizar cuantitativamente las diferencias entre la complejidad estadística de señales BOLD cortas obtenidas a partir de resonancias magnéticas nucleares entre la zona afectada por el ACV y los hemisferios de un sujeto con ACV, y entre sujetos con ACV y sanos. Los resultados obtenidos para el caso de los sujetos sanos encuentran: Diferencias entre el cerebelo y cada uno de sus hemisferios y entre el lóbulo frontal y occipital. Diferencias entre la materia gris y blanca."
Análisis de Entropía de Transferencia de Señales Retinianas en un Modelo Animal de la Enfermedad de Alzheimer
"La enfermedad de Alzheimer (EA) es una enfermedad neurodegenerativa que afecta la memoria y funciones mentales. Hallazgos recientes muestran que la EA se manifiesta en la retina, alterando tanto su estructura como su funcionamiento. Por tanto, es posible que las señales electrofisiológicas de la retina, es decir, el electroretinograma permita detectar posibles cambios en la funcionalidad de la retina para diagnosticar este trastorno incluso en etapas tempranas de la enfermedad. La detección temprana del Alzheimer es esencial, ya que permite intervenir de manera más efectiva en el curso de la enfermedad. Sin embargo, los métodos actuales a menudo son invasivos, costosos o no proporcionan resultados precisos en etapas iniciales. En esta investigación, analizamos datos de microelectroretinogramas (μERG) registrados en ratones sanos y 5xFAD, un ratón transgénico utilizado como modelo animal de la EA. El uERG fue registrado en respuesta a distintos estímulos visuales, incluyendo sinusoides de frecuencia variable y una secuencia de imágenes de escenas naturales. Luego, mediante el cálculo de la entropía de transferencia evaluamos las relaciones causales entre las señales de uERG y el estímulo aplicado.Los resultados preliminares indican que la entropía de transferencia de las señales de retina presentan diferencias significativas entre ratones 5xFAD y sanos, indicando que la entropía de transferencia sería una herramienta robusta para detectar cambios tempranos en la retina debido a la EA, cambios que las herramientas tradicionales podrían pasar por alto."
Modelado del Comportamiento de Usuarios en Tareas de Búsqueda de Información Mediante Cadenas de Márkov
"Motivación: Internet se ha posicionado como el principal recurso educacional para que estudiantes de diversos niveles del sistema educativo realicen sus trabajos e investigaciones académicas. Realizar estas tareas de forma efectiva requiere que un estudiante haya adquirido una serie de habilidades conocidas como competencias informacionales las cuales son indispensables para completar exitosamente procesos de estudio autoguiado que se traducen en aprendizajes significativos. Problema: Este trabajo se centra en desarrollar un modelo de sesión de consulta markoviana para caracterizar el comportamiento de estudiantes durante tareas de búsqueda de información mediante la identificación de patrones en el camino seguido por aquellos que tienen éxito al encontrar información relevante en línea en contraste con aquellos que no lo logran al realizar la misma tarea. Enfoque Solución: Se desarrolló un modelo probabilístico basado en cadenas de Márkov de tiempo discreto para modelar el comportamiento de estudiantes, tanto en el grupo con éxito como sin éxito, en lo que respecta a la tarea de búsqueda de páginas relevantes. Metodología: Para crear el modelo a través de cadenas de Márkov, se construyó una matriz utilizando una secuencia de acciones que identifica a los diferentes estados. En cada componente de esta matriz se representa la probabilidad de pasar desde un estado a otro. En nuestro caso, dada una secuencia de acciones independientes realizadas por un usuario de la clase “aprobado” o “reprobado”, es posible predecir con cierta probabilidad las siguientes acciones que sucederán. Estas probabilidades se determinan considerando la frecuencia con la que se pasa de un estado a otro en la cadena. Resultados: Un primer modelo muestra el comportamiento de quienes lograron encontrar páginas relevantes. En este los usuarios exitosos tienen una baja probabilidad de realizar bookmarks en páginas no relevantes, mientras que presentan una alta probabilidad de hacerlo en páginas relevantes. Sin embargo, a medida que aumenta el número de páginas visitadas y el número de consultas realizadas, la probabilidad de conseguir un bookmark relevante disminuye. Además, se observa que a medida que ocurre este aumento, también aumenta la probabilidad de realizar un bookmark en una página no relevante. El segundo modelo muestra el comportamiento de quienes no lograron encontrar páginas relevantes. En este los usuarios sin éxito tienden a tener sesiones de búsqueda bastante cortas, lo que se evidencia en el hecho de que finalizan el proceso de búsqueda durante la primera consulta luego de haber visitado dos páginas. Por lo tanto, es posible inferir que a medida que los usuarios llevan más tiempo realizando la tarea de búsqueda de información, tienen una alta probabilidad de no marcar las páginas relevantes, lo que sugiere un aumento en el índice de fracaso."
Modelo de análisis espacial y temporal para la caracterización de la cobertura hospitalaria y accesibilidad de los servicios de atención del Accidente Cerebrovascular en la Región Metropolitana de Chile
"Motivación: El Accidente Cerebrovascular (ACV) es una emergencia médica que puede significar graves secuelas para la salud y calidad de vida de las personas, siendo una de las principales causas de discapacidad y mortalidad en Chile, especialmente en la población de mayores de 60 años. La atención temprana es fundamental para mejorar las posibilidades de un resultado favorable y reducir su mortalidad. Sin embargo, actualmente existe una falta de información detallada sobre la cobertura y accesibilidad de los servicios de atención del ACV en la Región Metropolitana de Chile, lo cual dificulta dar una atención oportuna y efectiva a los pacientes. Problema: El problema radica en la falta de una visión completa y detallada de la cobertura y accesibilidad de los servicios de atención del ACV en la Región Metropolitana de Chile. Esta falta de información precisa limita la capacidad de identificar áreas con deficiencias en la atención y obstaculiza la toma de decisiones informadas en el ámbito de las políticas de salud. Enfoque de Solución: Para caracterizar la cobertura y accesibilidad de los servicios de atención del ACV en Chile, se propone un enfoque integral. Este método incluye microsimulación espacial utilizando datos del censo y CASEN para analizar la distribución geográfica de la población con factores de riesgo. También se empleará isócronas para evaluar la accesibilidad, considerando tiempos de desplazamiento basados en el riesgo de mortalidad por ACV. Finalmente, se utilizará el método AHP (Analytic Hierarchy Process) para analizar la accesibilidad a los centros de atención y jerarquizar las áreas con menor cobertura. Este enfoque identificará áreas prioritarias para estrategias de prevención y atención del ACV. Metodología: Para el desarrollo de esta solución, se sigue la metodología CRISP-DM, adaptando el orden de las dos últimas fases, realizando la implementación antes de la evaluación debido a la necesidad de desplegar los resultados en un tablero interactivo para su visualización y revisión. Resultados: En este momento de la investigación, se encuentra en desarrollo el análisis y la recopilación de datos. Los resultados finales se esperan al finalizar este semestre académico y se espera que proporcionen información valiosa sobre la cobertura y accesibilidad de los servicios de atención del ACV en la Región Metropolitana de Chile."
Sistema de detección de ciberataques para dispositivos en entornos Smart Home utilizando deep learning
"La tesis aborda el desarrollo de un sistema de detección de ciberataques para dispositivos en entornos Smart Home mediante el uso de técnicas de Deep Learning. La pregunta de investigación central es si es factible implementar un sistema de detección de ciberataques en dispositivos con recursos de procesamiento limitados en entornos Smart Home. Para abordar esta cuestión, se emplearon métodos como Information Gain & Gain Ratio para la selección de características, así como tres enfoques distintos de manejo del procesamiento de datos con el fin de evaluar su eficacia en los entrenamientos. La investigación concluyó que es viable implementar con éxito un modelo de Deep Learning en dispositivos con recursos de procesamiento limitados en entornos Smart Home. Se determinó que la memoria RAM requerida por el modelo implementado representa aproximadamente el 10 % de la memoria total del dispositivo, lo que sugiere un consumo de memoria eficiente. A pesar de que el modelo emplea un porcentaje significativo de capacidad de procesamiento, se concluyó que esta carga adicional no debería afectar adversamente las funcionalidades normales del dispositivo. La relevancia de esta tesis radica en su contribución a la exploración y ampliación de los límites de implementación de un detector de ciberataques basado en Deep Learning en dispositivos de entornos Smart Home. El estudio demuestra la viabilidad de integrar sistemas de seguridad avanzados en dispositivos con recursos limitados, lo que resulta fundamental para garantizar la protección en el creciente ecosistema de dispositivos interconectados en hogares inteligentes."
Impacto de la función de agregación final en la predicción del puntaje HER2 a partir de biopsias IHC de cáncer de mama.
El cáncer de mama es una enfermedad que requiere una detección temprana y un diagnóstico preciso para un tratamiento efectivo. En este contexto, los modelos de inteligencia artificial basados en aprendizaje automático, específicamente los modelos de múltiples instancias, han surgido como una herramienta prometedora para la evaluación del cáncer de mama. Estos modelos utilizan biopsias de cáncer de mama obtenidas mediante inmunohistoquímica (IHC) para predecir el HER2 Score, un indicador clave en el manejo de la enfermedad. Sin embargo, el impacto de la función de agregación final en estos modelos de aprendizaje de múltiples instancias no ha sido completamente explorado. Por lo tanto, este trabajo se propone investigar y analizar la influencia de la función de agregación final en la precisión de la predicción del HER2 Score a partir de biopsias IHC de cáncer de mama. El resultado de esta investigación podría conducir a mejoras significativas en la evaluación del HER2 Score y, en última instancia, en la comprensión del impacto de la función de agregación final en modelos de múltiples instancias de aprendizaje.
Utilización de Polinomios Discretos Ortogonales para el pre-procesamiento de Síntesis de imágenes
El proyecto astronómico ALMA ubicado en el norte de Chile es un proyecto en el que se implementan una gran cantidad de antenas radio-interferométricas para el estudio y análisis de imágenes espaciales, en concreto los cuerpos celestes. Estos instrumentos radio-interferométricos utilizados por el observatorio muestrean la transformada de Fourier de la emisión de radiofrecuencias del cielo espacial. Sin embargo el muestro es parcial, es decir, que no se realizan muestras a intervalos regulares y por siguiente muchas frecuencias en el espacio de Fourier no logran ser muestreadas, presentando una incompletitud en los datos y generando artefactos u otro tipo de irregularidades en las imágenes. La síntesis de imágenes corresponden a métodos aproximativos que completan dichos datos de forma de que se puedan generar mejores imágenes. Los métodos actuales para la síntesis de imágenes son el método CLEAN y el método MEM, ambos pasando por un pre-procesamiento denominado \textit{gridding}, el cual estima muestras en un nuevo enrejado regular. Sin embargo, dada la cantidad de datos que son manejados y que el este pre-procesamiento debe ser de una complejidad lineal, gridding esta basado en la ponderación de datos reduciendo los datos ponderados a un número por casilla, generando una pérdida de significancia estadística. Una forma en la que se podrían aprovechar todos los datos sin que haya una mayor pérdida de significancia estadística sería la utilización de polinomios discretos ortogonales dado que pueden generar soluciones con mínima varianza en los datos y siendo una solución más exacta para extrapolar a celda sin mediciones. El presente trabajo propone la generación de polinomios discretos ortogonales a través del proceso de reortogonalización de Gram-Schmidt clásico para dos dimensiones como un nuevo método de pre-procesamiento de datos. De esta forma, se puede responder a la pregunta si el pre-procesamiento por polinomios discretos ortogonales es mejor que el método gridding tanto en la calidad de los resultados como en el tiempo de ejecución. Para esto se experimenta con diferentes simulaciones de datos y imágenes para desarrollar y ajustar el algoritmo de ortogonalización y comparar sus resultados con el pre-procesamiento de gridding ponderado.
Generación de Gold-Standard de biopsias de cáncer de mama
"El cáncer es la principal causa de muerte en el mundo, siendo el cáncer de mama la forma más prevalente de esta enfermedad. Según datos registrados por la OMS (2021), en el año 2020 se diagnosticaron 2,3 millones de casos de cáncer de mama en mujeres en todo el mundo, siendo 685.000 casos fatales. Es posible que al padecer esta enfermedad, se observe una sobreexpresión de una molécula oncogénica llamada HER/neu, la cual puede ser detectada mediante pruebas como el análisis de inmunohistoquímica (IHC). Sin embargo, la prueba IHC tiene limitaciones debido a la evaluación subjetiva a la que está sujeta, lo que provoca variabilidad en las interpretaciones de los patólogos. Es por eso que para abordar este problema y diseñar modelos de clasificación automática confiables, se debe contar con un conjunto de datos de referencia o gold-standard el cual esté basado en la opinión de múltiples expertos; hasta la fecha, no existe un estándar público de este tipo. Para desarrollar este conjunto de datos, se llevaron experimentos previos utilizando un programa que consolida las opiniones de varios expertos en una única decisión final. Sin embargo, a pesar de haber seleccionado métodos de desarrollo y estudio del estándar que mostraban buenas métricas, los resultados revelaron que la precisión promedio del gold-standar propuesto no cumple el nivel de confiabilidad necesaria para ser utilizado como referencia en investigaciones futuras. Como continuación de esta investigación, el desarrollo de la investigación actual se enfoca en comprender las razones detrás de la dificultad de la generación del conjunto de datos gold-standard confiable. Una vez identificadas estas razones, se buscará generar un nuevo conjunto de datos, con la esperanza de superar los resultados previos y contribuir al avance en este campo de la medicina."
Evaluación estratégica sobre la factibilidad de localización de plantas fotovoltaicas para la producción de hidrógeno verde. Mediante análisis espacial y aprendizaje automático integrado en la Región de Antofagasta.
Chile destaca por su potencial en energías renovables, especialmente en la producción de hidrógeno verde mediante plantas fotovoltaicas. Sin embargo, los Conflictos Socioambientales (CSA) en el sector energético requieren una aproximación estratégica a la instalación de estas infraestructuras. Este estudio busca identificar áreas óptimas en la región de Antofagasta, con el fin de mitigar la contaminación en zonas de sacrificio y prevenir nuevos conflictos. Utilizando técnicas geoespaciales y el modelo Self Organizing Map, se analizan variables socioambientales y tecnofacilitadoras, estableciendo criterios para la instalación de plantas fotovoltaicas. Se distinguen tres tipos de zonas: ideales, prometedoras y desafiantes. Las primeras están próximas a industrias y rutas de transporte, mientras que las desafiantes se encuentran cerca de áreas sensibles con desafíos en la interacción con la comunidad y restricciones medioambientales. En resumen, este enfoque brinda directrices claras para una Evaluación Ambiental Estratégica para la producción de hidrógeno solar en la región de Antofagasta, guiando eficientemente la planificación de proyectos sostenibles en línea con una transición energética justa.
Identificación de biomarcadores para el cáncer de colon a través de selección de características usando un enfoque multiobjetivo.
"Se estima que para el año 2025 serán 21.9 millones de nuevos casos de cáncer, siendo 11.4 millones el número estimado de muertes mientras que para el 2020 fueron 20 millones de nuevos casos de cáncer, al menos la mitad de ellos fueron letales en el mundo (Global Cancer Observatory, 2019). Para el caso chileno durante el 2018 se reportaron 53.365 nuevos casos de cáncer, siendo 1 de cada 2 casos letal, posicionándose como la segunda causa de muerte a nivel país, mientras que el cáncer de colon es la tercera causa de muerte en Chile independiente de la edad o el sexo (Ministerio de Salud, 2019). Ante esta realidad es que se hace imperativo avanzar en la investigación de esta enfermedad por lo cual se propone avanzar mediante la identificación de biomarcadores para pacientes de cáncer de colon a través de datos de expresión génica. Asimilando esta tarea al problema de selección de características, el cuál es un problema clasificado como NP-complejo en donde por definición busca optimizar dos objetivos simultáneamente, minimizar la cantidad de elementos y maximizar la capacidad de discriminación de clases. Para ello es que se propone como solución una metodología híbrida de dos etapas. La primera de filtro y la segunda de envoltura, siendo esta última un algoritmo genético evolutivo multi-objetivo (NSGA2) modificado que permite optimizar simultáneamente ambos objetivos. Introduciendo un nuevo operador de acercamiento (zoom) que permite reducir el espacio de soluciones iterativamente cada vez que se cumple una condición. Esta metodología de selección de características fue parametrizada para encontrar la mejor combinación de valores y componentes en distintos conjuntos de datos de expresión génica para pacientes de cáncer de colon. Una vez obtenida la mejor configuración se realiza una ejecución de largo plazo, evaluando 11 veces el mismo conjunto de datos de expresión génica, 1 millón de combinaciones por cada vez. Cuyo resultado en términos de capacidad para discriminar las clases logró un AUC-ROC de 0.989 para 489 genes y un AUC-ROC de 1 para 1884 genes y un rendimiento computacional en términos de tiempo que va entre 8 a 32 horas de ejecución. Asimismo, se realizó una validación biológica de los biomarcadores identificados por el método en la plataforma de descubrimiento Disgenet, fuente con relaciones de genes y enfermedades, identificando cerca del 90\% de los genes hallados en la plataforma y sólo el 20% como biomarcadores de cáncer de colon o colorrectal, dejando un 70% de los genes hallados registrados en disgenet pero no asociados al cáncer de colon. Además, mediante un proceso de enriquecimiento biológico se identificaron términos relacionados con la respuesta inmune o con la actividad de glucuronosiltransferasa a través de Gene Ontology con significancia estadística con el cáncer de colon corroborados en la literatura. "
Single-solution based metaheuristic approach to a novel restricted clustering problem
Clustering problems have been widely studied in the literature. Multiple types of solutions have been devised depending on the specific problem considered, including ad-hoc heuristics and meta-heuristic approaches. In this paper, we center our attention on a particular clustering problem in which the sizes of the individual clusters are fixed a priori and where a membership restriction due to an initial classification is present. A novel formal description of the problem is presented, and an example of how it appears in practice as a postprocessing step of nonnegative matrix factorization analysis is described. Adaptations of three classical single-solution based metaheuristic methods are proposed as possible solution strategies for this problem. Experiments are performed using synthetic data and then using a test dataset constructed from repeated NMF extractions of multiple face images. The efficacy of the various approaches is compared and discussed.
Evaluating the incorporation of biological knowledge in multiobjective clustering of gene expression data
Analysing large amounts of gene expression data from biological repositories can uncover new patterns, potentially leading to innovative treatments or diagnostic methods for diseases such as cancer, Alzheimer and Parkinson. In this work, we evaluate the incorporation of two biological knowledge's data on the multi-objective clustering of cancer gene expression datasets. We implemented the Non-dominated Sorting Genetic Algorithm II (NSGA-II) to optimise two objectives: gene expression similarity and biological coherence, using Gene Ontology (GO) and the Kyoto Encyclopedia of Genes and Genomes (KEGG) as biological knowledge sources. The results show a better performance of the multiobjective clustering when it uses the KEGG knowledge database. It provides evidence that KEGG is a worthy alternative to GO in helping clustering algorithms to find meaningful clusters. These results contribute to creating better computational tools for high-quality analysis in cancer genomics, potentially enhancing the precision of treatment strategies.
Estimation of structural parameters of protoplanetary disks using deep learning
"El estudio de discos protoplanetarios es de vital importancia para comprender la formación planetaria. Determinar cómo se distribuye su material circulante, su comportamiento, y cómo estos evolucionan permite a los astrónomos hacer analogías para poder entender cómo se formó nuestro sistema solar, y por consecuencia, la vida en nuestro planeta. Para esto, los astrónomos mediante sus investigaciones buscan derivar diferentes propiedades físicas que caractericen la morfología de los discos que ellos observan. Estas investigaciones se llevan a cabo por medio de una gran planilla de simulaciones donde se intenta replicar el disco protoplanetario en estudio generando discos sintéticos a través de la aplicación de modelos paramétricos que describen la estructura de densidad del disco por medio de 5 parámetros clave denominados parámetros estructurales. Esta planilla de simulaciones se realiza por medio de un muestreo iterativo de estos 5 parámetros utilizando el método de Markov Chain Monte Carlo (MCMC), donde cada disco artificial resultante se compara con el disco observado mediante la resta de sus señales en el plano de Fourier, llamadas visibilidades, obteniendo así, una distribución de probabilidad de estos parámetros que mejor describan al objeto en estudio. Este método resulta actualmente muy caro a nivel de tiempo como computacionalmente, lo que lo hace inviable para aplicarse en una nube molecular con una gran población de discos. Es por esto, que se propone un nuevo enfoque basado en redes neuronales convolucionales donde por medio del plano de las visibilidades del objeto de estudio como entrada se pueda estimar estos parámetros estructurales de una forma más rápida, permitiéndole a los astrónomos tener una herramienta más eficiente para ser aplicable a una gran población de discos y a los nuevos datos que actualmente y en el futuro se puedan ir generando. Para esto, el procedimiento experimental se lleva a cabo por medio de 2 fases. En la primera se busca generar una base de datos con visibilidades sintéticas derivadas de un pipeline de 3 etapas donde se simulan estos discos y sus visibilidades a través de la variación de un espacio de parámetros estructurales (simulación de transferencia radiativa para obtener una imagen del disco con ciertos parámetros estructurales, simulación de la observación del objeto en el cielo con una configuración de antenas y obtención de las visibilidades). La segunda etapa corresponde al entrenamiento de la red neuronal convolucional, utilizando para esto la base de datos generada anteriormente, y su posterior testeo tanto en datos sintéticos como en datos reales. Actualmente el proyecto se encuentra en la etapa de generación de datos, donde se están simulando 32.000 datos (32.000 planos de visibilidades derivados de 3200 discos sintéticos), pero se espera que en la fecha estipulada, ya existan resultados de una red neuronal convolucional ya entrenada."
Reconstrucción de imágenes con datos polarizados
La radioastronomía es una rama de la astronomía que estudia los cuerpos celestes a través de sus ondas de radio, que pueden estar polarizadas. Una de las maneras que se utiliza para captar estas emisiones es la interferometría, donde los datos recibidos son correlacionados en las visibilidades, y estas son muestreadas en un plano de Fourier. Debido a distintos factores, las visibilidades están muestreadas de manera incompleta e irregular. Por lo que para obtener la imagen, es necesario distribuir regularmente las visibilidades. Esto conlleva, junto a otros factores, a obtener una imagen con imperfecciones. Para ello, existen distintos algoritmos para reconstruir lo mejor posible la imagen, con diferentes enfoques, siendo el de la optimización global el que mejor se ajusta al problema.
Análisis de Precios en la Agricultura con Series de Tiempo y Transformers
Título: Modelado de Precios de Frutas y Hortalizas en el Mercado Mayorista de la Región Metropolitana Utilizando Técnicas de Series de Tiempo y Transformers. Motivación: Mi investigación de tesis de magister se centra en la mejora y paralelización de un simulador que modela el proceso de cultivo, venta y consumo de frutas y hortalizas por pequeños agricultores en la región metropolitana. Actualmente, el modelo utiliza enfoques simplificados para estimar los precios de los productos, lo que afecta la precisión de las simulaciones. Este estudio busca perfeccionar la predicción de precios utilizando técnicas avanzadas de series de tiempo. Problema: El modelo de simulación actual requiere una representación precisa de los precios de los productos, ya que los agentes toman decisiones basadas en estos precios. Los precios reales de los productos exhiben estacionalidad y variabilidad significativa a lo largo de los años y las temporadas. Por lo tanto, es esencial desarrollar un método preciso para simular los precios de manera realista en el período de estudio. Enfoque de Solución: Hemos modelado los precios de los productos utilizando series de tiempo, comenzando con métodos tradicionales y avanzando hacia técnicas de clusterización y modelos de redes neuronales preentrenados basados en transformers. Estos enfoques avanzados permiten capturar y modelar la compleja interdependencia entre los datos y predecir secuencias de observaciones. Esta investigación es especialmente relevante, ya que la predicción de precios en el contexto agrícola, y particularmente en Chile, ha recibido escasa atención. Metodología: Recolectamos datos oficiales de ODEPA para los productos incluidos en la simulación. Utilizamos múltiples enfoques, incluyendo series de tiempo de varios años con diferentes técnicas de suavizado, así como clusterización anual de series de tiempo para cada producto. Además, afinamos un modelo basado en transformers previamente entrenado con los datos procesados. Resultados: Presentamos resultados cuantitativos que evalúan la calidad de las predicciones, la estacionalidad y el comportamiento de los precios, así como la agrupación de productos según su similitud en las series temporales."
Reducción de complejidad en la variabilidad cardiaca de enfermos con Parkinson
"La enfermedad de Parkinson (EP) es una de las enfermedades neurodegenerativas más comunes que se caracteriza principalmente por la presencia de temblores involuntarios en quienes la padecen. Esta enfermedad posee también síntomas cardiovasculares, como arritmias e hipotensión ortostática que se manifiestan mucho antes de los síntomas motores de la enfermedad. Estos síntomas del corazón pueden hallarse en controles de rutina, por lo que un análisis minucioso del corazón se vuelve importante, pues se podría hallar la EP incluso antes de que ocurra su manifestación en temblores, impactando positivamente en la calidad de vida del paciente. Por esta razón, se reconoce la relevancia del estudio del corazón mediante el uso del electrocardiograma (ECG). Entre las diversas formas existentes para su análisis, se utiliza para esta investigación la teoría de la pérdida de la complejidad en la enfermedad, la complejidad y la entropía multiescala debido a su ventaja para describir sucesos variantes en el tiempo, además de su confiable y comprobado fundamento teórico usado en múltiples investigaciones. Donde la complejidad ha demostrado ser un método confiable para distinguir entre sujetos sanos y patológicos. Para ello se utilizan los intervalos RR de los pacientes con el fin obtener valores de entropía y complejidad, de manera en que se pueda analizar la variabilidad de la frecuencia cardiaca de los sujetos. Este estudio corrobora la teoría de la reducción de la complejidad en la enfermedad, pues se encuentra una disminución de la complejidad en los sujetos enfermos con EP en comparación a los controles, hallando diferencias significativas entre las complejidades de los grupos controles-enfermos. Además, en un estudio realizado de 24 horas de muestras, se observa que la media de la complejidad de los controles es superior durante todo el período de captura de muestras a la media de la complejidad de los sujetos enfermos."
PLATAFORMA GEO-INFORMÁTICA PARA LA GESTIÓN DEL RIESGO DE DESASTRE EN EL BORDE COSTERO
En contexto a los eventos de marea roja ocurridos en los años 2002 y 2009 en la Zona Sur de Chile, y en especial, el año 2016 en la Región de Los Lagos, donde hubo un 50% de disminución de la actividad económica de la región, siendo equivalente a una pérdida de 2.8 toneladas de productos del mar (US $1.2 millones en pérdida); SERNAPESCA identifica el problema de que surgen innumerables denuncias de eventos anómalos que no son canalizadas apropiadamente hacia las autoridades competentes, debido a que existe carencia de tecnologías de la información que sean de utilidad para el problema específico de la gestión del riesgo de desastres en floraciones algales nocivas (FAN). De aquí se identifica la oportunidad del desarrollo de una plataforma geo-informática inteligente espacialmente explícita, diseñada bajo una metodología de gestión del riesgo de desastre para ser un apoyo efectivo a la toma de decisiones y el entendimiento de la situación de la población frente a emergencias ocasionadas por FAN apoyado por Fondos de Innovación para Competitividad (FIC Gore Región de Los lagos) y SERNAPESCA Regional y Nacional.
La retina como ventana al cerebro: evaluación de índices de entropía y complejidad de señales electrorretinográficas
"La detección temprana de enfermedades neurodegenerativas (EN) como Parkinson y Alzheimer es crucial para el debido tratamiento y la mejora de la calidad de vida del paciente. En los últimos años, la retina ha recibido atención por parte de la comunidad científica como un candidato a expresar biomarcadores relacionados con EN, atención respaldada por alteraciones de electrofisiología retinal encontradas en estudios recientes. Se toma como base la teoría de que la complejidad biológica decrece producto de envejecimiento y enfermedad para plantear el estudio de una forma novedosa de diagnóstico temprano y no-invasivo de EN, estudiando y cuantificando la complejidad biológica de señales de respuesta de retina. En este trabajo son aplicados algoritmos de procesamiento de señales y entropía multiescala a la respuesta de la retina (electrorretinograma) de un animal transgénico frente a una familia de estímulos visuales con el objetivo de cuantificar la complejidad de la respuesta de la retina."
Ambiente comunitario para la publicación y regulación de contenido relativo a StArE.js
"Conforme a los resultados obtenidos en motores de búsqueda, al ser estos mostrados mediante una lista o tabla, puede que no sea la forma más efectiva de representar esta información. StArE.js propone el desarrollo de opciones en la presentación de resultados, para páginas de motores de búsqueda. Es un proyecto de software libre, cuyo propósito es facilitar la creación de visualizaciones alternativas a la convencional lista vertical de textos. Actualmente StArE.js presenta una limitación, a pesar de los avances que ha tenido en los últimos años, no existe una forma de ver todas las visualizaciones que se han desarrollado utilizando esta biblioteca como base. Se presenta una brecha comunicacional y de adopciónpor parte de la comunidad de desarrolladores y usuarios. Con el fin de abordar este problema, se planteó como solución, el desarrollo de un ambiente que permita la publicación y búsqueda de contenido relacionado a StAre.js, asentando las bases para la construcción de una comunidad en torno al proyecto Stare.js. Para generar este ambiente, se siguió un enfoque metodológico basado en prototipos realizados a partir de la metodología Rapid Application Development; Los resultados alcanzados en este proyecto se ven reflejados en una plataforma web, que permite el despliegue de las visualizaciones que han sido desarrolladas (Utilizando repositorios de Github)."
Predicción de movimiento en base a señales cerebrales usando métodos de aprendizaje profundo
"Las Interfaces Cerebro-Máquina (ICM) utilizan como base las señales cerebrales para procesarlas a través de un decodificador y transformarlas en el movimiento de algún artefacto biónico u otro dispositivo. Estos artefactos benefician especialmente a personas con dificultades motoras, permitiéndoles realizar actividades cotidianas. Para mejorar la predicción del decodificador en ICM, este estudio se centra en métodos de aprendizaje profundo, demostrados como superiores en comparación con enfoques clásicos. El objetivo de esta investigación fue realizar un estudio comparativo entre métodos de aprendizaje profundo para la predicción de movimiento en base a señales cerebrales. La metodología usada consta de 6 etapas, las cuales se inspiran en Knowledge Discovery in Databases. Inicia con la definición de objetivos y limitaciones, seguida por la comprensión detallada de la base de datos. Luego, se realiza un preprocesamiento de los datos y se aplican los métodos de aprendizaje profundo QRNN y Transformers como decodificadores de ICM. Posteriormente, se analizan los resultados y se aprovecha el conocimiento obtenido. Además, se implementa una metodología basada en programación extrema para una ejecución iterativa y adaptable a cambios. Con este trabajo se confirmó la importancia de seleccionar adecuadamente los hiperparámetros de los métodos de aprendizaje profundo, ya que solo cambiando algunos de ellos se pudo mejorar el estado del arte. Los resultados obtenidos por QRNN y Transformers indican que el primero obtiene una menor Raíz Cuadrada del Error Cuadrático Medio (RMSE) y un mayor Coeficiente de Correlación de Pearson (CC) que Transformers. Los resultados para QRNN son RMSE promedio de 18,419 ± 6,809 y CC promedio de 0,543 ± 0,12. Estos resultados respaldan el potencial que tienen los métodos de aprendizaje profundo para mejorar la predicción de las ICM, aportando en la investigación de esta área y a su vez a quienes ocupen aparatos biónicos."
Representación del Conocimiento para Razonamiento Automático en Bioinformática
El campo de la bioinformática plantea una serie de necesidades relacionadas con la adecuada representación del conocimiento biológico, con el fin de posibilitar el razonamiento automático y la generación de nuevo conocimiento en el ámbito biológico. Este nuevo conocimiento es fundamental para investigadores en el campo de la biología de sistemas, así como para aquellos que estudian enfermedades como el cáncer, Alzheimer, Parkinson, entre otras. También es esencial para todos los investigadores que hacen uso cotidiano de las crecientes bases de datos de conocimiento biológico disponibles en línea, construidas a partir de resultados experimentales y publicaciones científicas. El propósito de este trabajo es presentar literatura relevante sobre cómo se ha abordado el problema de la representación del conocimiento en fuentes de información biológica y cuáles son las necesidades que demandan los algoritmos de aprendizaje y razonamiento automático para generar nuevo conocimiento de utilidad para la comunidad de investigadores en los campos de la biología y la bioinformática.
Prediction Intervals for time series forecasting using Transformers
En el contexto de predicción en series de tiempo ha habido un interés creciente en los últimos años en poder cuantificar la incertidumbre de las predicciones realizadas por modelos neuronales mediante Intervalos de Predicción. Algunos de los enfoques más recientes para construir dicho intervalo son los métodos Joint Supervision, Quality Driven, LUBE, PIVEN, entre otros. El primero de ellos, que se ha mostrado que supera a los restantes, es el que se estudia en este trabajo. Consiste en utilizar una arquitectura de red neuronal con tres salidas: dos correspondientes a los límites del intervalo y una para la predicción puntual. Cada salida se optimiza con una función de pérdida distinta, que incluye un parámetro ajustable que se determina fuera del entrenamiento de la red. En el presente trabajo, se incorpora una modificación al método Joint Supervision de la literatura, consistente en limitar el rango del hiperparámetro λ utilizado en la función de costos y aumentar la penalización utilizada en el entrenamiento para los límites del intervalo, lo que se traduce en una mejora con respecto al método original en términos de la calidad del intervalo (intervalo más estrecho y mayor probabilidad de cobertura). Además, se realiza una comparación de dicho método modificado, implementado mediante una red neuronal recurrente LSTM, con una implementación que incorpora una arquitectura Transformer. Esta arquitectura ha resultado muy exitosa en el campo del Procesamiento de Lenguaje Natural y también se está aplicando con éxito en la predicción de series de tiempo debido a su mecanismo de atención neuronal. Experimentos realizados usando 3 distintas bases de datos (Dataset Temperatura (Sintético); Dataset Household Electric Consumption; Dataset Electric Transformer) muestran que el método Joint Supervision Modificado, con la arquitectura Transformer, logra consistentemente superar los resultados de cuando es utilizado con LSTM. Además se muestra que el método Joint Supervision Modificado supera consistentemente al original. Dichos resultados se obtuvieron considerando como métricas el Error Cuadrático Medio y otras dos que evalúan el grado de cobertura (PICP) y el ancho del intervalo generado (PINAW).
Demos
Predicción y comparación de series de tiempo con distintas características usando redes neuronales superficiales y profundas para la generación de modelos NARX y NARMAX
El presente trabajo se enfoca en el estudio de modelos NARX y NARMAX generados mediante técnicas clásicas de aprendizaje automático, tales como "Support Vector Machine" (SVM), "Multilayer Perceptron" (MLP) y "Extreme Learning Machine" (ELM), así como redes neuronales profundas como "Long Short-Term Memory" (LSTM), "Gated Recurrent Unit" (GRU), Transformers y "Convolutional Neural Network" (CNN). El objetivo es llevar a cabo un análisis de la capacidad de predicción de cada modelo. El propósito es encontrar la mejor técnica y proporcionar recomendaciones para el uso de cada una, teniendo en cuenta las características de la serie, incluida su complejidad, la cual se calcula utilizando el método MF-DFA. La hipótesis es que los modelos generados con técnicas de aprendizaje profundo superan a las técnicas superficiales. Los resultados obtenidos muestran que la hipótesis no se cumple para problemas de baja complejidad, sin embargo, para problemas de complejidad media la hipótesis se cumple.
Detección del cáncer de próstata en biopsias H&E
Si bien el cáncer de próstata no es el que más personas mata en el mundo, es él con más incidencias y con amplia diferencia. Se trata de una enfermedad que cuando las células prostáticas presentan mutaciones, comienzan a multiplicarse de manera descontrolada, provocando metástasis. Hombres mayores de 45 años deben hacerse exámenes de manera regular, dado que en las primeras etapas no se suelen presentar síntomas hasta ya está avanzado el cáncer, lo que dificulta la detección de este. Uno de los exámenes finales que utilizan los oncólogos son las Biopsias H&E, donde a través de su criterio experto logran identificar tejidos con la presencia de la enfermedad. Así, el objetivo de este trabajo es desarrollar un modelo para la detección del cáncer de próstata en biopsias H&E, empleando parches de tamaño y ubicación aleatoria, lo que a priori resultaría en un modelo con mejor capacidad de detección.
DESARROLLO DE MODS BASADOS EN BGAMES PARA EL VIDEOJUEGO MINECRAFT
Blended Games (bGames), un innovador framework que busca fusionar actividades cotidianas con la experiencia de juego virtual, promoviendo así un estilo de vida equilibrado y saludable. A pesar de sus diversos prototipos de videojuegos, la aplicación de bGames no ha logrado llegar a una gran cantidad de público. El proyecto propuesto implica la creación de un mod para dos cargadores de mods populares, como lo son Minecraft Forge y FabricMc, para destacar la flexibilidad de bGames y aprovechar una comunidad establecida para promocionar el framework. Este proyecto se realizó utilizando una metodología inspirada en RAD (Rapid Application Development), la cual consta de tres etapas, siendo estas el análisis y prototipado, implementación incremental y la evaluación. Como resultado del proyecto, se desarrollaron dos bibliotecas junto a una guía que permite implementar bGames en otros mods, así como también, dos mod que demuestran el uso de esta y enriquecen la experiencia de juego incorporando elementos que pueden ser usados mediante puntos de bGames. Con esto se espera expandir el catálogo y fomentar la adopción de bGames entre la comunidad de desarrolladores de mods para Minecraft.
Holografía de la vibración en la superficie de fuentes de ruido mediante la solución de problemas inversos y captura de datos con arreglos de micrófonos y cámara estéreo
La guía sobre exposición al ruido de la Organización Mundial de la Salud expone sus efectos nocivos para la salud de las personas, los cuales incluyen un aumento en el riesgo de sufrir enfermedades a las arterias coronarias e hipertensión, tinnitus y déficit cognitivo, posible pérdida auditiva, problemas para conciliar el sueño y deterioro de la salud mental. Su estudio es de gran relevancia para generar políticas de mitigación considerando que nuestro país no es la excepción ante la presencia de este contaminante. La obtención de la potencia sonora permite una correcta evaluación de fuentes de ruido para su posterior control y es un dato de entrada primordial para la predicción de niveles de radiación acústica bajo la normativa nacional ambiental y ocupacional. Las últimas tecnologías disponibles para obtener la potencia sonora incluyen arreglos de micrófonos y cámaras acústicas, equipamiento que permite obtener la solución a problemas inversos. Al registrar solo una porción de la radiación sonora emitida en puntos discretos, la solución a estos problemas es un tema complejo y generalmente mal puesto desde el punto de vista matemático. Adicionalmente, es necesario generar algoritmos eficientes tanto en tiempo como en memoria para la captura de señales múltiples y la reconstrucción de imágenes. Con un enfoque de paralelismo en tarjetas de video, se propone acelerar los cálculos para resolver el problema inverso, cuya solución se obtiene mediante distintos métodos de regularización. Una vez capturadas las señales de los micrófonos, es necesario contar con la información geométrica de la fuente, principalmente una discretización de su superficie. Utilizando sensores de imagen avanzados, conocidos como cámaras de profundidad estéreo, es posible obtener esta información. Con la solución al problema inverso y el modelado tridimensional de la fuente, es posible obtener la potencia sonora en conjunto a la holografía de la velocidad de partículas en su superficie. Esta información adicional es primordial para un correcto control de ruido ya que permite identificar los sectores de la superficie de la fuente de ruido que tienen mayor incidencia en su radiación sonora. Se propone una primera aproximación al cómputo de la potencia acústica y holografía en la superficie a partir de mediciones realizadas con un arreglo de micrófono y su aplicación en dispositivos tipo tarjeta de desarrollo de pequeño tamaño con una cámara 3D.
VoRTIcES 2.0: Ambiente de realidad virtual para la evaluación de interacciones con objetos de información digital usando Oculus Quest 2
"El uso de la tecnología se ha vuelto parte de la realidad cotidiana y su progreso sigue dando lugar a soluciones a problemas cada vez más complejos. Ejemplo de ello es la realidad virtual, la cual ha aportado con numerosas aplicaciones, abriendo las puertas a diferentes áreas de estudio como lo son la enseñanza-aprendizaje, medicina, ciencias físicas e ingeniería. Desde una mirada experimental, estudiar estas tecnologías en entornos controlados y reproducibles supone una serie de desafíos. Es en esta línea que el laboratorio InTeractiOn desarrolló el año 2016 VoRTIcES con un foco en el estudio de interacciones humano-información en entornos de realidad virtual. Ya transcurridos más de seis años de aquella contribución, las tecnologías de realidad virtual han evolucionado rápidamente y las tecnologías de realidad virtual con las que VoRTIcES operaba originalmente ya no son soportadas por los fabricantes, lo que supone una serie de limitantes a la hora de conducir estudios. Recientemente la empresa Meta ha lanzado al mercado el dispositivo Oculus Quest 2, el cual ofrece mejoras significativas respecto de sus predecesores y amplía considerablemente el espectro de posibilidades de interacción que se pueden alcanzar. Utilizando este dispositivo es como se crea un nuevo sistema VoRTIcES diseñado para conservar las funciones de VoRTIcES incorporando las características del dispositivo Oculus Quest 2. Este sistema se construye mediante el motor de desarrollo Unity, en el que se basó el desarrollo del sistema original y fue sometido a diversas pruebas en las dependencias de la Facultad de Ingeniería Informática, utilizando el dispositivo Oculus Quest 2 del departamento. En este sentido, el presente proyecto se centra en realizar una actualización de VoRTIcES a través de la cual (1) se ofrezca soporte a Oculus Quest 2 y (2) se amplíe el espectro de interacciones posibles con objetos de información en formatos múltiples. Para abordar el proyecto se utiliza un método de prototipo incremental basado en desarrollo rápido de aplicaciones (RAD). Se completaron los objetivos secundarios diseñando un entorno de realidad virtual inmersivo llamado VoRTIcES 2.0, se ejecutó un análisis de experiencia virtual y posteriores pruebas unitarias, de integración, de rendimiento y de aceptación a modo de evaluación, las cuales mostraron resultados satisfactorios. Se espera que el desarrollo sobre este sistema continué de la mano de futuros desarrolladores de InTeractiOn quienes utilizarán el diseño modular de la aplicación para agregar o modificar aspectos de ella según nuevas necesidades surjan. Este trabajo forma parte de un proyecto interno de la Universidad."
Panel Empresa
(18:00 hrs - 19:00 hrs)
Victor Galvez - EY
Jaime Salinas - NTT Data
Gustavo Riveros - Entel Ocean