Examinando por Materia "Artificial intelligence"
Mostrando 1 - 14 de 14
Resultados por página
Opciones de ordenación
Publicación Acceso abierto Aplicación de algoritmos genéticos para la generación óptima de horarios académicos en la Universidad EIA.(Universidad EIA, 2024) Muñoz Cuartas, Juan Felipe; Bonet Cruz, IsisRESUMEN: La elaboración de horarios académicos en la Universidad EIA enfrenta desafíos como la gestión eficiente de recursos, la satisfacción de preferencias individuales y la adaptación a cambios en las restricciones. Los métodos tradicionales, basados en la intervención humana, son propensos a errores y no siempre se optimizan logrando satisfacción de los involucrados. Este proyecto busca desarrollar un sistema basado en inteligencia artificial, utilizando algoritmos genéticos, para optimizar la generación de horarios académicos en la Universidad EIA con todas sus consideraciones. Este enfoque tiene el potencial de superar las limitaciones de los métodos tradicionales, mejorando la eficiencia de los espacios, el bienestar de estudiantes y profesores, y la calidad de la gestión académica. En primer lugar, se llevarán a cabo entrevistas con los encargados de diseñar los horarios en el área de sistemas para contextualizar el cómo se hace, que información se tiene y que observaciones se tienen en cuenta, se continua el diseño de una base de datos que almacene información esencial sobre cursos, profesores, aulas y horarios disponibles. Con lo mencionado se construye un modelo matemático que se diseñará para representar el problema de optimización de horarios como una cuestión combinatoria, considerando variables como la disponibilidad de recursos, las consideraciones espaciales de la Universidad EIA y las restricciones curriculares. La implementación del algoritmo genético se encargará de generar soluciones factibles y eficientes a través de operadores de selección, cruce y mutación, explorando así el espacio de soluciones para encontrar posibles horarios óptimos. La evaluación y validación de los horarios generados se realizarán comparándolos con los utilizados actualmente por la universidad, ajustando y corrigiendo según sea necesario para garantizar su calidad y adaptación a las necesidades institucionales. Finalmente, se desarrollará una interfaz de usuario que facilite la gestión y visualización de los horarios.Publicación Acceso abierto Caracterización de la enfermedad pulmonar obstructiva crónica (EPOC) a partir de imágenes de radiografías de tórax y datos clínicos(Universidad EIA, 2023) Sierra Villegas, Sebastián; Sánchez Ocampo, ManuelaRESUMEN: la creciente disponibilidad de datos y el rápido desarrollo de los métodos de análisis de datos han hecho posible las recientes aplicaciones de la inteligencia artificial y el machine learning en el área de la salud. La utilización de estos avances permite a los diferentes actores en el sector medico realizar mejor su trabajo de predicción y diagnóstico de enfermedades en los pacientes. Una de estas enfermedades es la EPOC o enfermedad pulmonar obstructiva crónica la cual es una de las enfermedades con mayor mortalidad en el mundo la cual afecta el sistema respiratorio, el cual es vital para la vida del ser humano. Para su diagnóstico existen diferentes maneras de lograr detectarla como son las imágenes médicas y exámenes como la espirometría. En el presente trabajo se analizó información de pacientes del hospital Pablo Tobón Uribe que diagnosticados con EPOC haciendo análisis de toda la información disponible del paciente en la base de datos, con el fin de extraer la información más relevante para la detección de esta patología. Al ser esta información necesaria para la detección de EPOC, el objetivo del trabajo fue desarrollar un modelo para la extracción de características y patrones relevantes en radiografías de tórax y datos clínicos de pacientes con EPOC. Este procedimiento se realizado usando la metodología CRISP-DM donde se empezó con la recolección de la información en el hospital, seguido del análisis de esta para así determinar cuáles serían las variables más indicadas para entrenar los modelos. Posteriormente, se seleccionaron los modelos que utilizarían estas variables para ser entrenados. Modelos como las redes neuronales convolucionales para la información no estructurada como son las imágenes médicas, y modelos convencionales de clasificación como KNN, Árbol de decisión, Gradient Boost, etc. para los datos estructurados, entre los que se encontraban los exámenes de función pulmonar y variables básicas del paciente. Por último, se corroboraron los resultados eligiendo los mejores modelos y comparando los algoritmos entre sí, por medio de métricas de evaluación y validación cruzada. Luego los dos mejores modelos fueron unidos para así tener un modelo final el cual pudiera predecir EPOC basándose tanto de la radiografía como de la información del paciente y los exámenes médicos. Los resultados indicaron que el modelo final es capaz de detectar EPOC en un paciente con altos niveles de precisión y estos podrían servir de base para trabajos futuros en esta área o bien para ser otra herramienta más del arsenal de una médicoPublicación Acceso abierto Desarrollo de modelos de inteligencia artificial para la detección de phishing en encabezados de correos electrónicos, construidos por grupos de amenazas persistentes avanzadas (APT)(Universidad EIA, 2024) Wagner Osorio, Miguel; Juilland Prada, Dennis Patrick; Gómez Betancur, Duván AlbertoRESUMEN: Este trabajo presenta el desarrollo de un modelo de ciberseguridad enfocado en la detección temprana de ataques de phishing, utilizando técnicas de inteligencia artificial y procesamiento de lenguaje natural. El objetivo principal es crear un sistema que identifique ataques de phishing mediante el análisis de las cabeceras de correos electrónicos, abordando una de las amenazas más frecuentes y dañinas en el ámbito digital. Este enfoque se implementa utilizando la metodología ASUM-DM de IBM, la cual guía el proceso desde la identificación del problema, la recolección de datos, hasta la construcción y evaluación del modelo. El estudio incluye una revisión exhaustiva de los ataques de phishing, su evolución y métodos de detección actuales, además de la selección y preparación de conjuntos de datos adecuados. El modelo desarrollado se entrena y valida empleando redes neuronales y otras técnicas de Machine Learning, logrando un alto nivel de precisión en la identificación de correos electrónicos maliciosos. Los resultados obtenidos demuestran la efectividad del modelo propuesto en comparación con enfoques previos, destacando su potencial para mejorar las medidas de ciberseguridad de usuarios y organizaciones.Publicación Acceso abierto Diseño de un prototipo de un correlacionador de eventos de seguridad para servidores(Universidad EIA, 2020) Restrepo Correa, Ricardo; Velasquez Saavedra, Juan Sebastian; Velasquez Munera, Juan EstebanRESUMEN: En la actualidad existen muchos servicios web, es decir, páginas y funcionalidades que se prestan a través de internet, los cuales para funcionar hacen uso de servidores web, que no son más que un computador que almacena información y se encuentra conectado a una red, en este caso internet. Los clientes de estas plataformas acceden a estos servicios realizando peticiones para obtener los recursos requeridos, dicha conexión entre el cliente y el servidor queda registrada como un evento o log, que no es más que una colección de datos de procesamiento y transmisión entre la relación antes mencionada. Así pues, un cliente puede intentar explotar alguna vulnerabilidad del servidor mediante una petición con el fin de hurtar información sensible, penetrar un inicio de sesión o hasta desconectar todo un portal. Sin embargo, dado lo anterior, su intento de ataque o su ataque en sí queda registrado como un evento o log, el cual puede contener información que dé a entender su finalidad maliciosa. En el siguiente trabajo se plantea una solución para monitorear y dar un significado a estos eventos de seguridad, con el fin de aclarecer las intenciones de los usuarios del servicio web, por medio de un correlacionador de eventos de seguridad utilizando inteligencia artificial, el cual permita, en primer instancia, exponer de manera generalizada la información almacenada en los eventos de seguridad por medio de gráficos y contenidos visuales, como también un algoritmo inteligente que clasifique un evento de seguridad como una petición normal de un cliente común o como un ataque de un cliente malicioso, en este caso exponiendo el tipo de ataque ocurrido. Para lograr el objetivo, se requirió de dos servidores, el primero, que fue expuesto a internet como servidor web mediante Apache HTTP Server con el fin de colectar eventos públicos, y el segundo, que sirvió como almacenamiento para dichos eventos utilizando una base de datos MySQL. Este último, se conectó a Power BI, donde se ilustró la información de interés con gráficos y contenidos visuales. Para el desarrollo del clasificador de eventos, se tomó un muestreo de 1000 datos por ataque y 1000 datos común y corrientes con el fin de entrenar tres modelos de inteligencia artificial y comparar sus resultados. Los tres modelos de inteligencia artificial (árbol de decisión, regresión logística y perceptrón multicapa) clasificaron exitosamente los eventos de seguridad, dando viabilidad a esta técnica para determinar peticiones maliciosas en un servidor web.Publicación Acceso abierto Diversificación de un portafolio de inversión basado diferentes medidas de riesgo(Universidad EIA, 2023) Agudelo Serna, Andrés; Valencia Villa, Juan SebastiánRESUMEN: el presente trabajo aborda la problemática de optimización de asignación de capital dentro de un portafolio de instrumentos financieros heterogéneos. Esta gestión óptima de carteras de inversión resulta un tópico crítico en finanzas corporativas, dada su incidencia en la rentabilidad y riesgo de las organizaciones. La investigación explora el potencial de técnicas de vanguardia en inteligencia artificial, específicamente la lógica difusa y los algoritmos genéticos, para la construcción de portafolios robustos mediante asignación sistémica de recursos. La metodología consiste en un estudio cuantitativo, explicativo y longitudinal. Involucra el análisis estadístico de series financieras históricas para entrenar y evaluar modelos predictivos. El alcance correlacional identifica interdependencias entre instrumentos. Se implementan dos enfoques complementarios: lógica difusa para evaluación individual de alternativas mediante reglas heurísticas, y algoritmos genéticos para búsqueda estocástica masiva en paralelo de asignaciones óptimas globales. Los resultados revelan sinergias entre ambos. La lógica difusa aporta análisis granular, manejo de incertidumbre y semántica interpretativa. Los algoritmos genéticos permiten optimización simultánea considerando interdependencias y con flexibilidad de objetivos. Se concluye que estas modernas técnicas algorítmicas de vanguardia sobresalen en la construcción de portafolios resilientes y superan limitaciones de enfoques tradicionales. Se recomienda investigación futura enfocada en despliegue de aplicaciones analíticas y validación sobre datos financieros en tiempo real. En síntesis, este trabajo ejemplifica la aplicación de algoritmos innovadores de inteligencia artificial para optimizar la gestión de portafolios de inversión corporativos, constituyendo un avance en la incorporación de técnicas de vanguardia en los procesos de decisión financiera estratégica.Publicación Acceso abierto Exploración y comparación de métodos de inteligencia artificial para la clasificación taxonómica en análisis metagenómicos(Universidad EIA, 2014) Montoya Ramírez, Widerman Stid; Bonet Cruz, IsisLa mayor diversidad genética está presente en las comunidades de microorganismos, el conocer estas especies, sus funciones y diferencias constituye un papel importante para solucionar problemas diversas áreas, como la salud, la alimentación y el medio ambiente. El método tradicional para realizar este tipo de investigaciones consiste en aislar el microorganismo de una muestra del entorno y así estudiar su constitución genética, sin embargo menos del 1% de los microorganismos pueden ser aislados y cultivados en los laboratorios. Gracias a las técnicas de secuenciación modernas cada vez más accesibles surge la metagenómica proponiendo una alternativa para poder estudiar el otro 99%. La metagenómica se encarga de estudiar la secuenciación de una muestra del entorno para descubrir a qué organismos pertenecen los fragmentos secuenciados. Sin embargo el problema radica en que los procesos necesarios para identificar el tipo de organismos en la muestra demandan mucho tiempo y recursos computacionales. En este trabajo se utilizan diferentes algoritmos de inteligencia artificial para agrupar los fragmentos de secuencias según su similitud en conjuntos puros, es decir, conjuntos cuyos fragmentos pertenezcan a un solo organismo o a un mismo grupo taxonómico de organismos. Además se propone un nuevo algoritmo que se basa en la aplicación del k-means de manera iterativa perfeccionando los grupos según la distancia entre ello. Se compararon los resultados con métodos de agrupamientos clásicos y se comprobó que con este último método se obtienen grupos más puros. Este resultado ayuda a que los procesos de ensamblado o de comparación serán más eficientes y rápidos, debido a que se tiene como entrada inicial una muestra más condensada y uniforme, disminuyendo el tiempo y los recursos consumidos durante los proyectos metagenómicos, al mismo tiempo que pueden realizarse de una forma más enfocada.Publicación Acceso abierto Máquina de vector soporte multidimensional para la negociación de divisas en el mercado Forex(Universidad EIA, 2018) Castaño Calderón, Daniel; Marín Tobón, Juan Diego; Peña Palacio, Juan Alejandro. IM, MsC, PhD; Universidad EIAEl mercado Forex es uno de los mercados más negociados en la actualidad gracias a las características que este ofrece. Dadas las características que posee el mercado de divisas como la gran velocidad a la cual fluctúan los precios en el mismo, la alta volatilidad, liquidez y las diferentes formas de apalancamiento, surgen nuevas plataformas de trading avanzadas que han permitido que las personas puedan negociar automáticamente a través de robots de trading, con lo cual se crea la necesidad de utilizar técnicas de inteligencia artificial para diseñar negociadores automáticos, los cuales cuentan con la capacidad de detectar patrones que un ser humano no puede percibir a simple vista, además de tener un aprendizaje propio a medida que se realizan operaciones en el mercado. En este trabajo se desarrolla un modelo a partir de la técnica de inteligencia artificial llamada máquina vector soporte, el cual pueda ser introducido en el mercado Forex para realizar negociación automática a partir de indicadores técnicos, los cuales son seleccionados con base en revisión bibliográfica de diferentes estrategias de negociación, y finalmente se valida el modelo a través de Backtesting, en donde los beneficios son el criterio para determinar la eficiencia del modelo en este mercado. Por último, de acuerdo a los resultados obtenidos se identifican tres tipos de eficiencias: La eficiencia con respecto a los beneficios, en la cual el modelo es eficiente ya que genera rendimientos durante el periodo de prueba; la eficiencia operativa del modelo, en la cual se muestra un alto porcentaje de error, por lo cual el modelo no es confiable en este aspecto; por último, de cara a la eficiencia basada en el riesgo/beneficio, se observa que el modelo es ineficiente, esto debido a la rentabilidad obtenida dentro del periodo de prueba frente al riesgo que representa el mercado de divisas.Publicación Acceso abierto Modelo computacional para la identificación de firmas de expresión génica asociadas con la respuesta a inhibidores de puntos de control en cáncer(Universidad EIA, 2024) Castillo Uparela, Daniel Eduardo; Castaño Portilla, CarolinaRESUMEN: El cáncer es una enfermedad caracterizada por la pérdida de control en la proliferación celular debido a la rápida expansión y transformación de células normales en células cancerosas, lo que constituye un desafío científico crucial para el desarrollo de tratamientos menos invasivos y más efectivos. Según la Agencia Internacional para la Investigación del Cáncer, en el año 2020 la enfermedad fue responsable de casi 10 millones de defunciones a nivel mundial, representando aproximadamente una de cada seis muertes registradas. Ante el desalentador escenario del cáncer, las terapias dirigidas ofrecen una alternativa con menos efectos secundarios en comparación con tratamientos tradicionales como la quimioterapia, posicionando a la inmunoterapia como una de las opciones más prometedoras en los últimos años. A diferencia de los métodos invasivos tradicionales que atacan indiscriminadamente las células tumorales, la inmunoterapia estimula el sistema inmunitario para que sea este el encargado de destruir el tumor, demostrando ser una estrategia innovadora y menos agresiva. Esta metodología terapéutica no solo implica menos efectos secundarios, sino que también representa una oportunidad significativa para combatir la proliferación de la enfermedad a lo largo del organismo. Este trabajo propone un modelo computacional basado en inteligencia artificial y técnicas bioinformáticas para identificar firmas de expresión génica asociadas con la respuesta a la inmunoterapia basada en inhibidores de puntos de control inmunitario anti PD1/PD-L1 en cáncer. Se utilizó un enfoque metodológico robusto, que incluyó la corrección del efecto batch inducido por las máquinas de secuenciación utilizando la librería Inmoose, así como la normalización de los datos de expresión génica mediante TPM. Adicionalmente, se aplicaron técnicas de reducción dimensional como el Análisis de Componentes Principales (PCA) para la visualización bidimensional y tridimensional de los datos. El balanceo de clases se realizó empleando técnicas como SMOTE, NearMiss y SMOTETomek integradas en Scikit-learn, mejorando significativamente el rendimiento del modelo. La optimización de hiperparámetros se llevó a cabo con la biblioteca Optuna, y la identificación de firmas genéticas se realizó utilizando Mlxtend. Estos métodos permitieron la creación de un repositorio digital de datos de expresión génica de pacientes con tumores sólidos y la implementación de un modelo computacional fundamentado en algoritmos de Machine Learning para predecir la respuesta a la inmunoterapia. Los resultados obtenidos demuestran que la firma de 14 genes seleccionada es capaz de clasificar con precisión la respuesta al tratamiento en pacientes con cáncer, mostrando un notable desempeño y potencial para futuras investigaciones. Este modelo tiene el potencial de convertirse en una herramienta valiosa para guiar investigaciones adicionales y apoyar decisiones médicas en el contexto de la inmunoterapia como terapia dirigida.Publicación Acceso abierto Modelo de predicción de sepsis a partir de datos históricos de pacientes en una unidad de cuidados intensivos(Universidad EIA, 2019) González Muñoz, Zuleimi Esteffanny; Merizalde Maya, Pablo; Bonet Cruz, IsisLa creciente disponibilidad de datos y el rápido desarrollo de métodos de análisis de datos, han hecho posible las recientes aplicaciones exitosas de la Inteligencia Artificial en la salud. El uso de estos avances tecnológicos, permiten ayudar en los diferentes procesos de las instituciones de salud como en la predicción y diagnóstico de enfermedades. Dentro de estas, la sepsis es considerada como una afección con alta tasa de mortalidad especialmente en las unidades de cuidados intensivos. Esta afección, puede llegar a ser muy grave debido a las diferentes maneras de manifestarse, lo que dificulta su diagnóstico. La verificación de algunas variables generales inflamatorias, permiten indicar la letalidad de la infección. Actualmente, lo más común es el uso de indicadores como: SOFA, qSOFA y SAPS-II para predecir la posibilidad de sepsis, ya que ésta está muy ligada a la mortalidad. Aunque, en países desarrollados ya se están usando métodos basados en datos históricos con algoritmos de inteligencia artificial para poder hacer una predicción temprana. En el presente trabajo se analizaron los datos almacenados en la base de datos libre MIMIC-III, la cual contiene información de pacientes admitidos en la unidad de cuidados intensivos de The Beth Israel Deaconess Medical Center en Boston, Massachusetts. Se usaron una serie de variables clínicas de los pacientes, las cuales se pasaron por unas reglas duras que generan un valor numérico o probabilidad que se relaciona con la severidad del padecimiento. Las variables elegidas, corresponden a las que se utilizan en los indicadores mencionados para poder predecir la existencia o no de sepsis y la mortalidad de los pacientes. Por lo que el objetivo del trabajo es realizar un modelo de predicción de sepsis temprana, utilizando métodos de inteligencia artificial y compararlos con loa diferentes indicadores para el diagnóstico de esta afección. El procedimiento realizado, se basó en la metodología CRISP-DM, donde se inició con la obtención de los datos, se realizó un análisis de calidad de estos, se procedió a seleccionar las variables de los indicadores mencionados, se realizó una limpieza de estos datos y se obtuvo la vista única, la cual fue utilizada para entrenar clasificadores supervisados seleccionados: árbol de decisiones, KNN, naive bayes, red neuronal y máquinas de vector soporte. Para esta clasificación, se dividieron primero los datos en datos de aprendizaje y validación, se implementaron los modelos, y por último se corroboraron los resultados, eligiendo los mejores modelos y comparando los algoritmos entre sí, por medio de la evaluación de métricas utilizando validación cruzada. Los resultados indicaron que los modelos de machine learning y deep learning implementados, son capaces de igualar e incluso mejorar las predicciones de los modelos de reglas duras, rompiendo los paradigmas y sirviendo como un apoyo en la toma de decisiones de los profesionales de la salud.Publicación Acceso abierto Modelo para la identificación de adenomas hipofisarios por medio de la imagenología y la visión artificial(Universidad EIA, 2023) Suárez Gómez, Silvia Natalia; Cardona Ramírez, Juan Felipe; Bonet Cruz, Isis; Jiménez Mejía, Ricardo de JesúsRESUMEN: con la presente investigación se busca realizar la identificación de adenomas hipofisarios de manera temprana y confiable, por medio de la imagenología y la inteligencia artificial. Este tipo de tumores cerebrales representan el 90% de las lesiones selares que se generan en una persona y aunque en muchas ocasiones son benignos, si no se detectan a tiempo, pueden llegar a ser críticos para la salud humana. Es por esto que, si se hace la detección de anticipada de dichas lesiones, se pueden prevenir riesgos futuros y dar un apoyo a los profesionales de la salud para un mejor diagnóstico en sus pacientes. Para lograr el objetivo del proyecto, inicialmente se hará una recopilación de datos a trabajar. Se tomarán la mayor cantidad de imágenes posibles, tanto de cerebros sanos, como de aquellos que tengan anomalías, necesarias para el desarrollo de las pruebas que se harán en la investigación. Como siguiente, se proseguirá con definir la estandarización para el tratamiento de los recursos (normalización, contraste, que tipo de imágenes se usarán, etc.), esto para continuar con el preprocesamiento y limpieza de los datos encontrados; y así alimentar el modelo de machine learning que consecuentemente se propondrá. Por último, una vez se abarque el problema con todo lo anteriormente mencionado, se hará la revisión final del prototipo generado con los datos separados para las pruebas, es decir, se probará el algoritmo creado con los datos ya clasificados, de pruebas. Se espera de este proceso, que los resultados que arroje el modelo de software sean confiables; de tal manera, que sea una herramienta de gran ayuda al sector de salud y consiguiente de eso, una gran aliada de las personas, pues permitirá que tengan un mayor nivel de confianza en sus diagnósticos.Publicación Acceso abierto Prototipo de aplicativo web para la recomendación de diseños frontend basado en técnicas de la inteligencia computacional(Universidad EIA, 2020) Alzate Alzate, Sebastián; Oquendo Castaño, Diego Alejandro; Patiño Pérez, Héctor AlejandroRESUMEN: Actualmente en las etapas de diseño de un proyecto web se invierte una cantidad considerable de tiempo en la búsqueda de diseños que se adapten a las necesidades que el cliente solicita y más importante aún; al usuario final para el cual está construida la plataforma. Esta búsqueda se puede tornar un tanto repetitiva, lo cual la convierte en una candidata perfecta para la automatización por medio de la implementación de un sistema de recomendación el cual permita la sugerencia de diseños frontend mediante técnicas de la inteligencia computacional, con el fin de ahorrar tiempo y lograr la mejor calidad en el producto final. Utilizando un esquema de almacenamiento no relacional para la caracterización de los diseños que allí se almacenen, un modelo de recomendación basado en contenido el cual implementa la similitud L2 para calcular la cercanía entre elementos, y una arquitectura web basada en la nube con AWS y Google, se logró llegar un prototipo final capaz de generar recomendaciones de componentes web que se adaptan a unas entradas previamente dadas por el usuario. En el presente proyecto no se posee una gran cantidad de componentes para sugerir, pero presenta las bases de modelo computacional el cual se desempeña correctamente en un escenario de escases de datos. Es de esperar que, con una base de datos más poblada y una mayor variedad de diseños en ella, el modelo se tenga un mejor comportamiento, ampliando la cantidad de recomendaciones por entradas y enriqueciendo la variedad de los diseños mostrados.Publicación Acceso abierto Prototipo de mano mecatrónica para aplicaciones en robótica industrial(Universidad EIA, 2013) Moreno Betancur, Brian; Velásquez Toro, Esteban; López Montes, Daniel FelipeOne of the principal limitations of industrial robots is directly related with the use of multiple final effectors, which are exchanged regularly in order to execute different tasks with the same robot. Considering the lost time while changing final effectors, this work is focused on the development of a final effector prototype of the mechatronic hand type, which could be used as a generic final effector on manipulating tasks. The prototype will permit the manipulation of different geometric volumes, emulating the human hand´s basic movements, which are operated by an instrumented glove or wirelessly through an android device.Publicación Acceso abierto Simulador virtual de la mecánica respiratoria con interfaz gráfica en realidad virtual(Universidad EIA, 2019) Torres Morales, Juan Diego; Bonet Cruz, IsisEl entendimiento del sistema respiratorio es de gran importancia para el adecuado diagnóstico y tratamiento de enfermedades respiratorias. Estrategias de enseñanza y de capacitación del personal médico, como la simulación de casos clínicos y el uso de software para la visualización de la anatomía y la fisiología del sistema respiratorio, se emplean para afianzar los conocimientos clínicos. Los ventiladores mecánicos son máquinas que ayudan a que un paciente respire cuando éste no puede hacerlo por sí mismo, y en muchas ocasiones se usan para tratar enfermedades pulmonares. El uso correcto de estos puede disminuir la mortalidad de personas con afectaciones respiratorias, reducir el tiempo que los pacientes están en las unidades de cuidados intensivos y disminuir los costos hospitalarios; pero un error en la configuración de los parámetros de los respiradores podía afectar la vida del paciente. Es por esto que es tan importante una herramienta que ayude a los médicos a estimar los parámetros de los ventiladores, de una manera personalizada, según las características de cada paciente. Este trabajo presenta un simulador virtual de la mecánica respiratoria, que cuenta con una interfaz gráfica y con modelos tridimensionales del sistema respiratorio que se puede ejecutar en entornos de cómputo tradicionales y en realidad virtual. El simulador se integra con dos modelos numéricos de la mecánica respiratoria: el modelo lineal de un solo compartimiento y el modelo no lineal de N-compartimentos, los cuales usa para describir el comportamiento del volumen y el flujo del sistema respiratorio para un sujeto intubado a un ventilador mecánico. Finalmente, el programa cuenta con un algoritmo de aprendizaje reforzado con el que se estima la presión ideal en la vía aérea para un paciente intubado. El simulador desarrollado es una herramienta computacional que puede ser usada para la investigación, el desarrollo, y la educación y entrenamiento del personal médico. Permite evaluar y afianzar los conocimientos de las propiedades más importantes de la mecánica respiratoria por medio de la simulación.Ítem Acceso abierto Sistema de detección de fibrilación auricular a partir de procesamiento de señales de ECG e inteligencia artificial(Universidad EIA, 2023) Awad Pérez, Karina; Saldarriaga Echeverri, Felipe; Torres Villa, Robinson Alberto; Camacho Cogollo, Javier EnriqueRESUMEN: la fibrilación auricular es el tipo de arritmia más común a nivel mundial, y ha sido considerada como un problema de salud pública por sus niveles de prevalencia. Esta cardiopatía puede derivar en complicaciones de alto riesgo como accidentes cerebrovasculares o infartos, que no solo ponen la vida del paciente en riesgo, sino que aumentan considerablemente las cargas económicas para empresas contributivas del régimen de salud. Conjuntamente, la fibrilación auricular se asocia con comorbilidades comunes como la hipertensión o la diabetes. Actualmente la patología es diagnosticada a partir de registros de electrocardiografía, que son tomados por un tiempo limitado, por lo que el evento podría no quedar consignado. En este trabajo se propone un sistema de detección de fibrilación auricular basado en inteligencia artificial, con el fin de abordar el problema desde una aproximación preventiva y así disminuir la ocurrencia de eventos adversos. En primer lugar, se realizó un preprocesamiento de señales de electrocardiografía y extracción de 23 características basadas en variabilidad cardíaca. La calidad de las señales fue evaluada antes y después del preprocesamiento. Posteriormente se hizo el procesamiento y análisis de los datos extraídos para entrenar modelos de aprendizaje de máquinas como SVM, Regresión Logística, RF, entre otros, ajustando sus hiperparámetros. Los modelos fueron evaluados y validados externamente con otro conjunto de señales mediante métricas como sensibilidad, precisión y exactitud; obteniendo para los cinco mejores modelos una exactitud superior al 92 %. Se eligió uno de los modelos con mejor desempeño y se evaluó el poder predictivo de cada característica en la clasificación que otorgaba el modelo, además, se redujo su dimensionalidad a solo 5 características. Este modelo fue evaluado nuevamente para determinar el efecto de reducir la dimensionalidad. Finalmente, fue embebido en un microcontrolador y probado con un simulador de pacientes, demostrando que es posible implementar el algoritmo de inteligencia artificial en un dispositivo con capacidad computacional limitada.